-
1 concept d'entropie
Dictionnaire polytechnique Français-Russe > concept d'entropie
-
2 concept d'entropie
сущ.тех. понятие энтропииФранцузско-русский универсальный словарь > concept d'entropie
-
3 concept
-
4 понятие энтропии
concept d’entropieРусско-французский политехнический словарь > понятие энтропии
-
5 понятие энтропии
neng. concept d'entropie
См. также в других словарях:
Entropie (thermodynamique) — Entropie Pour les articles homonymes, voir Entropie (homonymie). En thermodynamique, l entropie est une fonction d état introduite en 1865[1] par Rudolf Clausius dans le cadre du deuxième principe, d après les travaux de Sadi Carnot[ … Wikipédia en Français
Entropie Des Trous Noirs — Pour les articles homonymes, voir Trou noir (homonymie). Pour consulter un article plus général, voir : Trou noir. L entropie des trous noirs est une notion issue de l étude des trous noirs dans le cadre de la relativité générale et de la… … Wikipédia en Français
Entropie — Pour les articles homonymes, voir Entropie (homonymie). En thermodynamique, l entropie est une fonction d état introduite en 1865[1] par Rudolf Clausius dans le cadre du deuxième principe de la thermodynamique, d après les travaux de Sadi Carnot[ … Wikipédia en Français
Entropie des trous noirs — Pour les articles homonymes, voir Trou noir (homonymie). Pour consulter un article plus général, voir : Trou noir. L entropie des trous noirs est une notion issue de l étude des trous noirs dans le cadre de la relativité générale et de la… … Wikipédia en Français
ENTROPIE — La notion d’entropie, sa définition et le terme lui même furent introduits dans la thermodynamique en 1854, par le physicien allemand Rudolf Clausius (1822 1888). En fait l’événement doit être considéré comme la naissance même de cette discipline … Encyclopédie Universelle
Entropie De Shannon — L entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d information contenue ou délivrée par une source d information. Cette source peut être un texte écrit dans une langue donnée … Wikipédia en Français
Entropie Métrique — L entropie métrique, ou entropie de Kolmogorov (se dit aussi en anglais measure theoretic entropy) est un outil développé par Kolmogorov vers le milieu des années 1950 issu du concept probabiliste d entropie de la théorie de l information de… … Wikipédia en Français
Entropie de shannon — L entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d information contenue ou délivrée par une source d information. Cette source peut être un texte écrit dans une langue donnée … Wikipédia en Français
Entropie metrique — Entropie métrique L entropie métrique, ou entropie de Kolmogorov (se dit aussi en anglais measure theoretic entropy) est un outil développé par Kolmogorov vers le milieu des années 1950 issu du concept probabiliste d entropie de la théorie de l… … Wikipédia en Français
Histoire de l'entropie — Entropie Pour les articles homonymes, voir Entropie (homonymie). En thermodynamique, l entropie est une fonction d état introduite en 1865[1] par Rudolf Clausius dans le cadre du deuxième principe, d après les travaux de Sadi Carnot[ … Wikipédia en Français
Principe d'entropie — Entropie Pour les articles homonymes, voir Entropie (homonymie). En thermodynamique, l entropie est une fonction d état introduite en 1865[1] par Rudolf Clausius dans le cadre du deuxième principe, d après les travaux de Sadi Carnot[ … Wikipédia en Français